導讀:網站建設初始技術即網站在建立階段,就必須全盤綜合考慮的技術細節(jié),因為后續(xù)在網站運營過程中再進行調整,會牽涉太多方面,甚至無法執(zhí)行。1.網站站點地圖(Sitemap)的設置和技術細
發(fā)表日期:2019-04-18
文章編輯:興田科技
瀏覽次數(shù):10385
標簽:
網站建設初始技術即網站在建立階段,就必須全盤綜合考慮的技術細節(jié),因為后續(xù)在網站運營過程中再進行調整,會牽涉太多方面,甚至無法執(zhí)行。
1.網站站點地圖(Sitemap)的設置和技術細節(jié)
Sitemap是一種通知機制,就是通過創(chuàng)建一個文件的方式,把網站網頁的URL提交給搜索引擎,在Sitemap中定義好頁面的URL地址、權重、更新頻率等。通過把Sitemap提交給搜索引擎,搜索引擎爬蟲沿著Sitemap里面的鏈接地址進行爬行,這就是Sitemap的機制。
普通Sitemap文件的建立如下。通過XML的方式創(chuàng)建Sitemap,這是最常見也是最簡單的一種方式。
網址
2015.01.03T04:20.08:00
always
1.O
網址
2015.01.02T20:20:36Z
daily
O.8
1.百度Sitemap
網頁地址
2015-01-01
dafly
1.0
2.重要字段含義
?changefreq:指定提交的URL對應頁面內容的更新頻率,例如,daily、weeIdb,、monthly、yearly。這個參數(shù)用于設置搜索引擎頁面變動的頻率,即考量是否需要蜘蛛經常爬行并更新網頁的內容。
?lastmod:當前頁面內容最后的修改時間,這個參數(shù)可以給搜索引擎一個參考,就是時效性的參考,某些內容,特別是咨詢類的,搜索引擎會將內容的更新時間作為排序的一個因子。
?priority:定義頁面的權重,權重越高,相對于其他頁面,當前頁面的優(yōu)先級越高。
?:用描述具體的鏈接地址,這里需要注意的是鏈接地址中的一些特殊字符必須轉換為XML(HTML)定義的轉義字符,簡化版的
Sitemap也可以采用記事本方式,就是直接打開一個記事本,然后把URL填入,每個URL一行,然后直接提交搜索引擎,也能實現(xiàn)同樣的目的。
3.超級門戶的Sitemap模式
搜索引擎并不限定每個網站提交的Sitemap文件的個數(shù),因此,如果網頁
URL條目比較多,可以對新增的頁面進行差額提交。
在創(chuàng)建多個Sitemap文件時,可以通過一個父Sitemap文件鏈接多個子
Sitemap文件,子Sitemap文件通過填充實際URL條目的模式完成,這樣可以確保
每個Sitemap文件的URL條目不會特別多,建議一個Sitemap文件的URL條目不
要超過1000個。
下面是一個例子。
http://www.abc.com/sitemap1.xml.gz
http://www.abc.com/sitemap2.xml.gz
Sitemapl:
URLl
2015-01-01
daily
1.0
URL2
20 1 5..0 1.,0 1
daily
1.0
URL3
2015.01.01
dafly
1.0
URL4
20 l 5―0 1.0 1
daily
1.0
提交Sitemap的方式有多種,通常的做法是創(chuàng)建百度或者其他搜索引擎的站長賬戶,然后在站長后臺把Sitemap的uRL提交上去,在站長后臺可以看到每個Sitemap的處理進度和收錄的數(shù)據。
2.Robots文件設置和技術細節(jié)
Robots.txt文件放在網站的根目錄下,主要用于通知蜘蛛在該網站上的抓取范圍,SEO可以在這個文件中聲明該網站中不想被搜索引擎收錄的部分,或者指定搜索引擎只收錄特定的部分。
(1).經常使用到Robots.txt文件的情況
?網站升級,老版本網站的很多頁面在新版本網站中去掉了,在這種情況下,可以通過Robots文件告訴蜘蛛不再抓取這些已經被去掉的頁面。
?網站存在很多重復的內容,比如一個網站同時存在動態(tài)頁面和已經經過靜態(tài)化處理的頁面,這些頁面在內容上都是完全重復的內容,為了解決重復的問題,可以在Robots文件中禁止蜘蛛抓取動態(tài)頁面。
?網站內部有些內容不便于公開發(fā)布,但是需要允許內部查閱。遇到這種情況,可以在Robots中告訴蜘蛛不要抓取。
(2).Robots文件的基本寫法
User-agent:
Allow:/cgi.bin/see
Allow:/tmp/hi
Allow:/~joe/look
Disallow:/cgi.bin/
Disallow:/t.mp/
Disallow:|00e|
Allow是允許蜘蛛爬行的頁面,而Disallow后面則是不允許蜘蛛訪問的路徑和文件。
3.Robots的使用示例
(1)僅允許訪問某目錄下某個后綴的文件。
這里僅允許訪問帶“$”符號的網址,如下。
User―agent:*
Allow:.asp$
Disallow:/
(2)禁止索引網站中所有的動態(tài)頁面。
這里是限制訪問帶“?”的網址,例如,index.asp?id=1。
User―agent:*
DisallOW:/*?*
(3)使用“*”,限制訪問帶某個后綴的域名。
這里是禁止訪問admin目錄下所有htm文件,如下。
User―agent:*
DisaUow:/admin/*.htm
本文由領創(chuàng)網絡菏澤網站建設https://www.lingchuangweb.com/ 原創(chuàng)文字,版權所有,轉載請注明出處,并保留本鏈接,謝謝!
本文來源:A5上一篇:
暫無信息上一篇:
網站建設中網站優(yōu)化的黃金定律更多新聞
2020
關于seo優(yōu)化技巧大量存在,嚴格來說沒有高級或基礎之分,在適當?shù)臅r候使用適當?shù)膕eo技術做網站優(yōu)化是最好的方法。此外,底座的極致也可以看做高級。有很多
View details
2020
網站優(yōu)化真的是一門深奧學問,讓許許多多的站長頭疼,它不像數(shù)學那樣有公式而言,雖然他也有一定的規(guī)律而言,但是經常卻抓不到,說不上哪一天你就中招了,然后你就會到處的去思考找答案
View details
2020
關于seo優(yōu)化,從嚴格意義上講,seo抓取規(guī)則是一個病句,應該是在抓取時做seo的爬蟲也可以叫做蜘蛛。為什麼做seo需要搜索引擎蜘蛛爬取規(guī)則呢?這是因為收錄決
View details
2020
關于seo優(yōu)化,一般情況下seo不能快速發(fā)揮作用,seo的缺點是優(yōu)化周期較長,除部分黑科技,否則需要投入大量時間、人力、物力!下面小編告訴大家如何解決seo優(yōu)化
View details